В первой части статьи "Сравнение производительности StarWind iSCSI Enterprise и Microsoft iSCSI" мы приводили выводы Джейка Ратски о том, что iSCSI-таргет от компании StarWind показывает большую производительность по сравнению с его аналогом от Microsoft для рассмотренной нагрузки при установке одной ВМ. Теперь Джейк провел тестирование обоих продуктов при использовании трех виртуальных машин (на той же самой конфигурации оборудования), с которым можно ознакомиться в следующих статьях:
Для тех, кто использует хранилища iSCSI под виртуальные машины - очень полезно ознакомиться. Приведем основные выводы.
1. Использование полосы пропускания адаптера iSCSI.
Microsoft iSCSI:
StarWind iSCSI:
Как видно из картинок, StarWind iSCSI потихоньку разгоняется и показывает лучшие результаты, чем Microsoft iSCSI Target. Происходит это за счет активного использования кэша на сервере хранилища iSCSI, как и в предыдущем тесте:
2. Эффективность процесса дедупликации.
Как мы уже писали, StarWind iSCSI использует inline-дедупликацию данных на хранилище с размером блока 4 КБ, что подразумевает запись на диск только оригинальных копий данных, без повторяющихся блоков. В тесте для 3-х ВМ размером 9 ГБ каждая на хранилище было реально занято 8,69 ГБ данных, что довольно эффективно для трех практически одинаковых машин.
Коэффициент дедупликации - 3.15 к 1.
3. Производительность хранилища.
В тесте опять использовалась нагрузка, генерируемая IOMeter, на одной машине при двух простаивающих, а также на всех трех одновременно. Результат MS iSCSI (нагружена только одна ВМ):
Результат StarWind iSCSI:
И тут снова StarWind выигрывает.
Теперь метрики IOMeter для трех одновременно нагруженных ВМ для Microsoft iSCSI (минута с момента начала генерации нагрузки):
Продолжаем вас знакомить с решением номер 1 для создания отказоустойчивых хранилищ виртуальных машин для серверов VMware vSphere 5 - StarWind iSCSI Enterprise. Блоггер Jake Rutski провел интересное тестирование, в котором он сравнил производительность продуктов StarWind iSCSI Enterprise и Microsoft iSCSI при работе виртуальных машин с хранилищами. Итак, характеристика тестового окружения...
Продолжаем рассказывать вам о решении номер 1 для создания отказоустойчивых хранилищ для серверов Hyper-V - StarWind Native SAN for Hyper-V. В середине февраля была выпущена версия 5.8 этого замечательного продукта, в которой появилось несколько полезных улучшений (напомним, что ранее была выпущена бета-версия 5.8).
Что нового появилось в StarWind Native SAN for Hyper-V 5.8:
Плагин дедупликации был существенно доработан: эффективность увеличилась до 80% и теперь поддерживается журналирование
Поддержка снапшотов для хранилищ виртуальных машин
Для отказоустойчивых хранилищ (HA Devices) могут быть использованы raw image files
iSCSI-трафик, идущий по каналу синхронизации между узлами StarWind HA теперь передается более быстро и надежно за счет замены транспорта MS iSCSI на собственный от StarWind (разработчики утверждают, что в MS iSCSI много багов, которые остались еще с 2006 года, что влияет на надежность решения)
Для канала синхронизации узлов и сигналов доступности могут быть использовано по несколько сетевых интерфейсов
Канал сигналов доступности (Heartbeat channel) теперь является обязательной конфигурацией для решения (во избежания несогласованности данных). Можно использовать для него публичную сеть - по нему не проходит много трафика.
Возможность "Switch partner" - для существующего узла StarWind HA может быть переназначен новый узел (это требует обновления пути доступа к хранилищам в Hyper-V).
Автоматическая синхронизация узлов после одновременного выключения двух узлов (например, отключение электричества). Если одно из дисковых устройств имеет более актуальные данные, то они будут автоматически синхронизированы на другой узел. Если вы используете методику кэширования write-back и хотя бы один из узлов был выключен некорректно (hard power off, например) - то автоматической синхронизации не произойдет, и будут ожидаться действия пользователя.
Возможность пометить узлы как синхронизированные ("Mark as Synchronized"). Это позволяет, например, при одновременном отказе сетевых компонентов обоих HA-узлов продолжить нормальный рабочий процесс, если неисправность не удается устранить сразу же. Как только оба узла будут связаны произойдет автоматическая синхронизация.
Возможность изменить размер HA-дисков узлов "на лету", без остановки работы виртуальных машин.
RAM disk - алгоритм генерации серийного номера был изменен для соблюдения его уникальности в пределах сети.
SPTI - параметр выравнивания буфера используется при проверки свойств устройства во время инициализации сервиса.
Появился компонент Hardware VSS provider for Deduplication and CDP devices, доступный как отдельный модуль для загрузки.
StarWindX - это фреймворк для управления решением StarWind через PowerShell, что позволит автоматизировать задачи продукта из сторонних приложений.
Hyper-V Backup Plugin - функциональное решение для резервного копирования виртуальных машин, доступное как отдельный компонент.
Полный список новых возможностей также приведен в этом документе.
Процедура обновления на StarWind Native SAN for Hyper-V 5.8 (потребуется небольшой простой хранилища и виртуальных машин):
Отключите всех клиентов от HA-узла, если это возможно.
Обновите StarWind на первом узле и дождитесь пока он запустится. На этом этапе работу с хранилищем будет осуществлять второй HA-узел.
На этом шаге придется прервать работу с хранилищем, запустив обновление на втором HA-узле StarWind.
Запустите синхронизацию на первом узле, по окончании которой второй узел перейдет в состояние "Ready" и станет обрабатывать запросы клиентов.
Как только первый узел также перейдет в это состояние процесс обновления можно считать законченным.
Как мы уже не раз писали, в VMware View 5 появилась новая возможность отключать функцию Build to Loseless (BTL) для доступа к виртуальным ПК. Ее отключение несколько ухудшает качество передаваемой картинки, зато существенно увеличивает быстродействие (снижение требований к каналу до 30%) и отклик элементов отображаемого рабочего стола пользователя. При этом можно регулировать различные параметры, определяющие качество картинки, FPS и другое средствами групповых политик.
Конфигурируются эти настройки через шаблон групповой политики (GPO) pcoip.adm, расположенный на сервере VMware View Connection Server в папке (там же лежат и другие шаблоны):
Самый актуальный для пользователей VMware View 5 вопрос - это как сделать так, чтобы при доступе из локальной сети предприятия (LAN) пользователь входил на десктоп с включенным BTL (в условиях, когда канал широкий), а при доступе из интернета (WAN, узкий канал) можно было бы BTL отключить для повышения производительности.
Средствами View Manager, к сожалению, этого сделать нельзя, поэтому Dwayne Lessner придумал вот такой способ.
Нам понадобится следующее:
Шаблон политики vdm_agent.adm – используем его для запуска VB-скрипта или сценария PowerShell при соединении пользователя (Connect или Reconnect)
Шаблон
pcoip.adm – используем его для установки параметров Frame Rate, Image quality и других.
Прежде всего, для проверки используемых настроек (включен BTL или выключен) можно использовать лог, находящийся в папке виртуального ПК по адресу :\ProgramData\VMware\VDM\logs (для Windows 7). Называется он pcoip_server*timestampOfConnection*.log.
Там будут подобные строчки:
02/02/2012, 22:04:16.737> LVL:0 RC: 0 MGMT_ENV :cTERA_MGMT_CFG::load_server_config_from_stores[1]: Did not process over-rideable pcoip defaults from registry.
Если пользователь соединился из внешней сети (WAN), то в этом ключе будет записано имя Security Server. Для сторонних брокеров соединений (например, F5) можно читать ключик:
Теперь Dwayne нам предлагает вот такой скрипт (вы можете написать его самостоятельно, например, на PowerShell, где он будет выглядеть элегантнее):
'Declare Environment Variables
Dim ViewBroker, BTL
'Set Environment Variables
Set WSHShell = CreateObject("WScript.Shell")
'Lookup values in registry and assign to variables
ViewBroker = WSHShell.RegRead("HKEY_CURRENT_USER\Volatile Environment\ViewClient_Broker_URL")
BTL = WSHShell.RegRead("HKEY_LOCAL_MACHINE\SOFTWARE\Policies\Teradici\PCoIP
\pcoip_admin_defaults\pcoip.enable_build_to_lossless")
'Check Build to Lossess and if they are connecting to a security server
If ((ViewBroker = "External-Broker-Name") And (BTL = 1)) Then
WSHShell.RegWrite "HKEY_LOCAL_MACHINE\SOFTWARE\Policies\Teradici\PCoIP\
pcoip_admin_defaults\pcoip.enable_build_to_lossless","0","REG_DWORD"
'Test Message Box inform the user
MsgBox "Your Connected from a Remote Location, to get better performance please disconnect and connect to get optimal user experince. A new setting must be applied"
End If
'Check to see if they connected from home and turned BTL off but are now back on the LAN
If ((ViewBroker = "Internal") And (BTL = 0)) Then
WSHShell.RegWrite "HKEY_LOCAL_MACHINE\SOFTWARE\Policies\Teradici\PCoIP\
pcoip_admin_defaults\pcoip.enable_build_to_lossless","1","REG_DWORD"
'Test Message Box inform the user
MsgBox "Your Performance is optimized for a slow link. To have the best user experience disconnect your session and log back in. A new setting must be applied"
End If
Ну а дальше конфигурируете групповую политику, где прописываете VB или PowerShell скрипт в CommandsToRunOnConnect и Reconnect:
После этого, конечно, пользователю будет нужно делать Reconnect при смене сети LAN/WAN, но зато процесс будет частично автоматизирован. Остается вопрос - почему такую важную вещь VMware не сделала в GUI своего View? Ведь при работе через инет по медленным соединениям виртуальные ПК откровенно тормозят и без отключения BTL просто не обойтись.
Deduplication - плагин для дедупликации хранилищ был переработан и теперь поддерживает журналирование данных. Также добавлена поддержка снапшотов для механизма дедупликации.
Новая версия плагина, обеспечивающего высокую доступность хранилищ (см. ниже).
В качестве отказоустойчивых хранилищ могут быть использованы файлы типа raw image.
iSCSI-трафик, идущий по каналу синхронизации между узлами StarWind HA теперь передается более быстро и надежно за счет замены транспорта MS iSCSI на собственный от StarWind (разработчики утверждают, что в MS iSCSI много багов, которые остались еще с 2006 года, что влияет на надежность решения).
Канал сигналов доступности (Heartbeat channel) теперь является обязательной конфигурацией для решения (во избежания несогласованности данных). Можно использовать для него публичную сеть - по нему не проходит много трафика.
Возможность "Switch partner" - для существующего узла StarWind HA может быть переназначен новый узел (помните, что требуется обновить пути доступа к хранилищам в ESX и Hyper-V).
Автоматическая синхронизация узлов после одновременного выключения двух узлов (например, отключение электричества). Если одно из дисковых устройств имеет более актуальные данные, то они будут автоматически синхронизированы на другой узел. Если вы используете методику кэширования write-back и хотя бы один из узлов был выключен некорректно (hard power off, например) - то автоматической синхронизации не произойдет, и будут ожидаться действия пользователя.
RAM disk - алгоритм генерации серийного номера был изменен для соблюдения его уникальности в пределах сети.
SPTI - параметр выравнивания буфера используется при проверки свойств устройства во время инициализации сервиса.
Скачать бета-версию StarWind Enterprise HA 5.8 можно по этой ссылке (без регистрации).
Таги: StarWind, Enterprise, Update, HA, Storage, iSCSI, VMware, Microsoft
Решил перевести новость о том, что OpenShift теперь объединяет Jenkins, JBoss Tools и Maven, позволяя Java-разработчикам программировать, собирать, развёртывать и масштабировать приложение в облаке.
Red Hat предлагает вам использовать OpenShift не только для хостинга приложений, но и для всего цикла разработки ПО. Вы можете программировать, компилировать и улучшать своё ПО прямо в «облаке», не используя для этого десктоп или мощный ноутбук.
Как многие из вас знают, в новой версии решения для виртуализации настольных ПК предприятия VMware View 5 появилось множество интересных возможностей, одно из которых возможность отключения передачи картинки десктопа пользователю без потери качества (Disable build-to-lossless) для протокола PCoIP, что очень актуально для WAN-соединений.
Если сравнивать версии VMware View, то для обычного офисного ПК необходима следующая полоса пропускания канала до устройства доступа (тонкого или толстого), если он работает в виртуальной машине:
View 4.x с дефолтными настройками = 150 Kbps
View 5.x с дефолтными настройками = 60Kbps
View 5.x с опцией Disable build-to-lossless = 48Kbps
Как видно, помимо того, что в VMware View 5 существенно уменьшились требования к каналу, с отключением передачи десктопа без потери качества можно добиться снижения требований еще до 30%.
Если говорить о качестве картинки рабочего стола, то выглядит это так:
Из картинки видна, что потери весьма незначительны. Конфигурируется эта настройка через шаблон групповой политики (GPO) pcoip.adm, расположенный на сервере VMware View Connection Server в папке:
Там много интересных настроек протокола PCoIP, но нас интересует первая - Turn off Build-to-Lossless feature:
Все это можно делать и через реестр - читайте KB 1014686 или вот тут.
Вторая оптимизация - это video frame-rate, то есть частота отображения кадров для видео, а также качество передаваемой картинки. Задается она настройкой Configure PCoIP image quality levels, где есть на выбор три опции для тюнинга протокола PCoIP:
Minimum и Maximum Image Quality - по умолчанию установлено в значение 50 (диапазон - от 30 до 100). Определяет качество картинки при заданном количестве кадров (третий параметр). Minimum гарантирует качество картинки, maximum - ограничивает полосу, необходимую для десктопа. Когда канал широкий - настройка Maximum игнорируется и PCoIP работает на максимально возможном качестве картинки.
Minimum и Maximum Initial Image Quality - это качество картинки первично передаваемой на десктоп View 5. Т.е. регулируется первично передаваемый регион картинки, а изменяющиеся регионы будут уже регулироваться первой настройкой. По умолчанию установлено в значение 90 (диапазон - от 30 до 100). Minimum Image Qualityне может превышать Maximum Initial Image Quality.
Maximum Frame Rate - по умолчанию это значение равно 30 кадрам в секунду, но для большинства случаев, если установить 15 кадров, то требование к полосе для видео уменьшится до 1,7 раза, при этом гладкость картинки останется вполне приемлемой.
Третий вид оптимизации - оптимизация полосы пропускания для аудио (Configure the PCoIP session audio bandwidth limit).
Тут варианты такие:
1600 kbps - для любителей качественного звука без компрессии в виртуальном ПК
450 kbps - качественный звук с компрессией
50-450 kbps - что-то среднее между FM-радио и телефоном
Если поставить значение 100, то будет нормальный звук (не для меломанов, конечно), при этом полоса, необходимая для аудио, снижается в 5 раз!
Четвертый вид оптимизации - это оптимизация пользовательского ПК с Windows. Тут рекомендации просты:
Выставляем настройку "optimize for performance" - требования к каналу снижаются на 10%
Отключаем шрифты ClearType - получаем еще 5%
Отключаем картинку рабочего стола, скринсэйвер, Windows update, Super-fetch и Windows index - получаем тоже выигрыш в производительности
И, наконец, регулируем настройку "Configure PCoIP client image cache size policy" - это новая функция VMware View 5, позволяющая определять размер кэша для картинок, передаваемых посредством PCoIP на сторону клиента (по умолчанию - 250 МБ)
Читаем полный список оптимизации гостевых ОС Windows 7 в качестве виртуальных ПК VMware View 5.
Вкратце - это первые шаги по оптимизации PCoIP для VMware View 5. Дальше изучаем следующие материалы:
После выпуска платформы Citrix Xen Cloud Platform (XCP) 1.0, компания Citrix совместно с сообществом разработчиков Xen.org выпустила обновленную версию своей облачной платформы XCP 1.1. Напомним, что проект XCP является свободной облачной платформой на базе XenServer, распространяемой под лицензией GPLv2. Поддержка Xen API позволяет переносить виртуальные машины на платформы Amazon EC2, Rackspace Cloud Servers или GoGrid (например, в случае нехватки ресурсов в своем ЦОД).
Новые возможности Citrix Xen Cloud Platform 1.1:
Поддержка технологии IntelliCache, которая позволяет использовать для кэширования данных виртуальных машин локальные и общие хранилища, что увеличивает быстродействие, особенно в VDI-окружениях.
Локальное хранилище поддерживает все физические диски, объединяемые через LVM.
Поддержка режима "Reset-on-boot" для дисков из репозиториев любого типа (ранее поддерживалось только для NFS и EXT).
Поддержка Red Hat Enterprise Linux (RHEL) 6 в качестве гостевой ОС.
Улучшения интеграции с OpenStack: поддержка ebtables и других возможностей netfilter (отключено по умолчанию). Это фаервол, поддерживающий DNAT/SNAT для MAC-адресов и маршрутизацию по MAC-адресам.
Переопределение Xen API: хосты XCP теперь могут работать как будто они хосты XenServer, что улучшает интеграцию с XenCenter.
Скачать дистрибутив Citrix XCP 1.1 в виде ISO-образа можно по этой ссылке.
Кстати, вот интересная табличка сравнения изданий Citrix XenServer и XCP (кликабельно):
Мы уже много писали о новых возможностях VMware View 5 (тут и тут), а сегодня компания VMware сделала его доступным для загрузки пользователям. Скачать пробную версию VMware View 5 можно по этой ссылке (для имеющих лицензию - тут).
Новые возможности решения для виртуализации настольных ПК предприятия VMware View 5:
3 основных нововведения по оптимизации канала для протокола PCoIP (сокращение требований к каналу до 75% по сравнению с VMware View 4.6):
Client Side Caching - это некий аналог технологии Citrix IntelliCache, которая появилась в платформе Citrix XenServer 5.6 SP2 (со стороны брокера соединений у Citrix его поддержка включена в XenDesktop 5 SP1). Эта технология позволяет снижать стоимость обслуживания инфраструктуры виртуальных ПК и повышать их производительность за счет использования комбинации общего и локального хранилища (с кэшированием) для виртуальных машин. На локальном хранилище кэшируются многие постоянные элементы десктопа, например, заставка рабочего стола, меню и другое (т.е. не передается повторно).
Улучшения Lossless CODEC - как известно, PCoIP использует lossless-кодек, который не очень хорошо работал при "тонком" канале со стороны клиента. Это связано с компрессией шрифтов ClearType, rich type и anti-alias, передача которых потребляет до 25% канала. Здесь были сделаны серьезные улучшения в алгоритм их передачи.
Возможность отключить build to lossless (BTL). Теперь пользователям позволяет передавать рабочий стол на клиентское устройство с некоторым ухудшением качества изображений, но зато можно существенно снизить требования к пропускной способности канала (особенно это актуально для пользователей, работающих по WAN-каналам).
View Media Services for Unified Communications - это предоставление сторонним разработчикам (пока Avaya, Cisco, Mitel) специального API, посредством которого их ПО "понимает", что оно работает в виртуальной машине VMware View 5. Это позволяет производить кодирование и декодирование на стороне клиентского устройства, а не в виртуальном ПК. Все это увеличивает эффективность VoIP-решений. Архитектура этого решения такова:
View Media Services for 3D Graphics - это первая фаза по реализации концепции Virtual GPU. По-сути это софтовый рендер для приложений, использующих DirectX9 и OpenGL, с поддержкой Windows Aero и Microsoft Office 2010. Это позволяет комфортно работать с задержками до 100 миллисекунд, однако повышает нагрузку на CPU.
View Media Services for Printer Support - поддержка Location based printing для не Windows-устройств, используемых для доступа к View. Настраивается по-прежнему через GPO.
View Media Services for Clipboard Support - возможность расширенной настройки буфера обмена между клиентом и виртуальным ПК.
PCoIP Continuity Services - это улучшения, связанные как с возможностью восстановления сессии View при ее обрыве, так и возможность работы в сетях с большим процентом потерянных пакетов.
Основные возможности, которыми обладает VMware View Client для Android:
Поддержка VMware View 4.6 и более поздних версий.
Поддержка только протокола PCoIP для доступа к виртуальным ПК.
A new look and feel – View Client for Android сделан в новом стиле, в отличие от других клиентов VMware View.
Multiple broker support – если у вас есть более одного одного сервера VMware View Connection Server, вы можете получить доступ к любому из них.
Desktop Shortcuts – к четырем десктопам можно получить через ярлыки на рабочем столе смартфона или планшета.
Virtual trackpad – удобное управление мышью внутри рабочего стола виртуального ПК.
Custom keyboard toolbar – простой доступ к клавишам, которых нет в стандартной клавиатуре на Android .
Honeycomb 3.x support – клиент разработан специально для Android и поддерживает все новые версии этой ОС, включая 3.x на планшетах.
Custom gestures – удобный функционал вызова клавиатуры, скроллинга и т.п.
VMware View Security Server support (best experience) – для клиента не нужен VPN при использовании VMware View Security Server (то есть, трафик прокируется через него - не нужен прямой доступ к серверам ESX от клиента).
Background tasking – удобное переключение между виртуальным ПК и другими задачами Android.
View Persona Management - функции по созданию виртуального профиля пользователя, отделенного от десктопа. Наконец-то VMware View 5 получил возможности Virtual Profiles - профили пользователей виртуальных ПК на базе программного продукта от компании RPO Software, приобретенного VMware. Эта возможность позволяет "отвязать" профиль пользователя от операционной системы Windows и повысить портируемость пользовательских окружений (ранее планировалось, что эти возможности войдут в состав View 4.5 или 4.6). Эта функциональность доступна только в издании VMware View Premier.
Функции View Persona management используют стандартные общие ресурсы CIFS (SMB) для хранения данных пользователей и не требует создания backend-инфраструктуры. Одна и та же персонализация пользовательского окружения может поддерживаться между разными сессиями с виртуальными ПК View. Кроме того, "персону" можно использовать, например, для сохранения пользовательского окружения при изменении в базовом образе и других сценариях использования.
PCoIP Extension Services - это возможности осуществлять мониторинг сессий VMware View 5 в контексте отдельных десктопов, что позволяет выявлять узкие места в инфраструктуре доступа к виртуальным ПК. Поддерживается интерфейс WMI.
Enhanced Security - расширенные возможности по работе с сертификатами на стороне клиента.
vSphere 5 support - полная поддержка VMware vSphere 5 в качестве платформы для виртуальных ПК.
Режим SplitRx mode, который позволяет увеличить производительность сетевого взаимодействия для некоторых нагрузок
Функция VMX swap, которая уменьшает резервирование памяти для ВМ
Миграция vMotion по нескольким сетевым адаптерам (vmknics)
В документы присутствуют следующие темы:
Выбор оборудования для развертывания vSphere
Управление электропитанием
Настройка ESXi 5 для улучшения производительности
Настройка гостевой ОС для улучшения производительности
Настройка vCenter 5 и его базы данных для улучшения производительности
Производительность vMotion и Storage vMotion
Производительность Distributed Resource Scheduler (DRS) и Distributed Power Management (DPM)
Компоненты High Availability (HA), Fault Tolerance (FT) и VMware vCenter Update Manager
Документ обязателен к прочтению администраторам средних и крупных инфраструктур VMware vSphere 5. Кроме того, напомним о следующих новых документах о производительности платформы:
Мы уже много писали о различных технических аспектах новой версии серверной платформы виртуализации VMware vSphere 5 и особенностях лицензирования, но в этой статье постараемся сделать суммарный обзор функциональности различных изданий продукта, краткое описание состава пакетов ПО (Acceleration Kits и Essentials), а также детально рассмотреть особенности лицензирования.
Компания VMware сегодня сделала доступной для скачивания новую версию своей платформы виртуализаци VMware vSphere 5. Надо сказать, что подробности о vSphere 5 появились довольно давно, затем было объявлено, что продукт можно будет скачать 22 августа, но только сегодня, 25 августа, VMware vSphere 5 можно наконец-то скачать.
Напоминаем, что для бесплатного гипервизора VMware ESXi 5 можно использовать максимально 32 ГБ сконфигурированной памяти запущенных виртуальных машин на данном хосте.
Старые версии VMware vSphere по-прежнему остаются доступными для скачивания: 4.1, 4.0
Отдельно можно скачать продукты семейства VMware vSphere на каждой из страниц конкретного продукта (за ссылки спасибо Duncan'у Epping'у):
Надо сказать, что не все компоненты решения доступны для загрузки. Например, VMware vCenter Server Appliance будет доступен для скачивания в течение нескольких дней.
Начать думать о миграции с VMware ESX / ESXi 4.x на VMware ESXi 5 можно с просмотра вот этого видео:
Про VMware Data Recovery 2.0 только нет пока заметки. Вы наверное заметили, что пока нельзя скачать VMware vCloud Director 1.5, VMware Site Recovery Manager 5 и VMware View 5. Это только пока - доступность этих продуктов для скачивания ожидается 1 сентября.
Кстати, по поводу покупки VMware vSphere 5 обращайтесь к нам, в компанию VMC. У нас обязательно будут предложения, от которых вы не сможете отказаться.
В новой версии платформы виртуализации VMware vSphere 5 появилась интересная возможность - Host Cache. Это механизм, который позволяет пользователю vSphere 5 выделить определенное место на локальных дисков хост-сервера ESXi (лучше всего, если это будут SSD-диски) для хранения свопируемых страниц памяти виртуальных машин. Это позволяет существенно увеличить скорость работы файлов подкачки виртуальных машин (vswp), так как они находятся на локальных высокопроизводительных дисках, и, соответственно, увеличить общее быстродействие инфраструктуры виртуализации.
Хорошая и развернутая статья о Swap to Host cache в VMware vSphere 5 есть у Duncan'а Epping'а, а здесь мы приведем основные ее выдержки.
Прежде всего, после установки VMware ESXi 5 хост может не увидеть локальные SSD-хранилища как пригодные для хранения кэша виртуальных машин. Для этого есть вот такой хак от Вильяма Лама. Далее мы идем на вкладку Configuration в vSphere Client и выбираем секцию Host Cache Configuration:
Тут мы можем задать объем дискового пространства на локальном томе VMFS, который мы можем использовать для файлов подкачки виртуальных машин, работающих на этом хосте. После включения этой возможности на этом локальном томе VMFS появится куча vswp-файлов, в которые гостевые ОС виртуальных машин этого хоста будут складывать свои свопируемые страницы памяти.
Поскольку эти своп-файлы находятся только на этом хосте, то при миграции vMotion содержимое страниц памяти из этих файлов надо скопировать на другой хост в его Host Cache или в vswp-файл в папке с виртуальной машиной на общем хранилище. Это, само собой, увеличивает время на миграцию vMotion, и это надо учитывать.
Что касается надежности при отказе хост-сервера, то тут нет проблем - так как при отказе хоста все равно его виртуальные машины перезапускаются на других хостах, то данные из файлов подкачки для ВМ уже не будут нужны.
Наблюдать за использованием Host Cache можно из VMware vCenter 5 с помощью метрик "Swap in from host cache" и "Swap out to host cache" (а также "rate..."). В результатах вывода консольной утилиты esxtop это метрики LLSWR/s и LLSWW/s.
Что будет когда место на локальном свопе Host Cache закончится? Сервер ESXi начнет копировать страницы в обычный vswp-файл, который находится в папке с виртуальной машиной, что само собой повлияет на производительность. Кстати, размер Host Cache можно изменять при работающем хосте и виртуальных машинах, поэтому лучше увеличивать его вовремя, да и в целом не доводить до большого свопа виртуальных машин (то есть, правильно сайзить хосты по памяти для ВМ). К примеру, Duncan рекомендует 128 ГБ SSD-диски в RAID-1 для 128 ГБ оперативной памяти хоста.
Альтернатива Host Cache - это задать параметр VM swapfile location для виртуальной машины в ее настройках, указав, например, локальный SATA или SSD-диск (можно использовать и быстрые общие хранилища).
Мы недавно уже писали о том, какие новые возможности появятся в решении для виртуализации ПК предприятия VMware View 5. Теперь появилось еще несколько интересных подробностей. Посмотрите на эту картинку сравнения RDP 7 и PCoIP новой версии:
В VMware обещали нам 3 основных нововведения в VMware View 5 касательно оптимизации канала по протоколу PCoIP:
Client Side Caching - это некий аналог технологии Citrix IntelliCache, которая появилась в платформе Citrix XenServer 5.6 SP2 (со стороны брокера соединений у Citrix его поддержка включена в XenDesktop 5 SP1). У Citrix эта технология позволяет снижать стоимость обслуживания инфраструктуры виртуальных ПК и повышать их производительность за счет использования комбинации общего и локального хранилища (с кэшированием) для виртуальных машин.
Улучшения Lossless CODEC - как известно, PCoIP использует lossless-кодек, который не очень хорошо сейчас работает при "тонком" канале со стороны клиента. Говорят, что это связано с компрессией шрифтов ClearType. Теперь это собираются весьма сильно доработать.
Ну и возможность отключить build to lossless (BTL). Теперь пользователям позволяет передавать рабочий стол на клиентское устройство с некоторым ухудшением качества изображений, но зато можно существенно снизить требования к пропускной способности канала.
Все это нам обещает уменьшение требований к каналу до 75% по сравнению с версией VMware View 4.x (где уже и так были некоторые улучшения PCoIP). Однако плохая новость в том, что поддержку компонента View Accelerator, отвечающего за кэширование на стороне клиента, похоже не успели встроить в VMware vSphere 5, а соответственно ее не будет и в VMware View 5 (подробности тут). Плюс ко всему, надо отметить, что показатели даже нового PCoIP в VMware View 5 все же уступают технологии Citrix HDX, а у компании Citrix есть еще такие оптимизационные решения как Branch Repeater.
Ну и еще одна плохая новость - цены на пакеты VMware View Enterprise Add-on и VMware View Premier Add-on повысятся (на картинке подсвечено синим, цена не для России):
Как вы знаете, скоро должен состояться VMworld 2011, где, скорее всего, будет объявлено о выходе VMware vSphere 5, серверной платформы виртуализации. Возможно, параллельно с этим компания VMware выпустит и новую версию продукта для виртуализации настольных ПК предприятия VMware View 5.
На сегодняшний день уже известны некоторые подробности о новых возможностях VMware View 5:
VMware View 5 будет включать в себя улучшенную версию протокола PCoIP (напомним, что во View 4.6 уже появились некоторые улучшения). На данный момент производительность протокола PCoIP существенно уступает аналогичному Citrix HDX/ICA, на базе которого построено конкурирующее решение Citrix XenDesktop. Улучшения PCoIP в VMware View 5 должны позволить VMware немного приблизиться к позициям Citrix в сфере виртуализации настольных ПК.
VMware View 5 будет иметь некий аналог технологии Citrix IntelliCache, которая появилась в платформе Citrix XenServer 5.6 SP2 (со стороны брокера соединений у Citrix его поддержка включена в XenDesktop 5 SP1). У Citrix эта технология позволяет снижать стоимость обслуживания инфраструктуры виртуальных ПК и повышать их производительность за счет использования комбинации общего и локального хранилища (с кэшированием) для виртуальных машин. VMware View 5 также получит что-то подобное.
Наконец-то VMware View 5 получит возможности Virtual Profiles - профили пользователей виртуальных ПК на базе программного продукта от компании RPO Software, приобретенного VMware. Эта возможность позволяет "отвязать" профиль пользователя от операционной системы Windows и повысить портируемость пользовательских окружений (ранее планировалось, что эти возможности войдут в состав View 4.5 или 4.6). Однако сообщается, что эта функция, скорее всего, будет включена несколько позже (но в этом году), и ее возможности будут весьма сильно урезаны по сравнению с тем, что планировалось сделать вначале.
Также о предложениях пользователей по функционалу VMware View 5 можно почитать вот в этой ветке на VMware Communities.
Практически одновременно с выпуском платформы для виртуализации Citrix XenDesktop 5 Service Pack 1 компания Citrix выпустила также и обновленную версию своей серверной платформы Citrix XenServer 5.6 Service Pack 2. Причина одновременности обновлений - поддержка в XenServer 5.6 SP2 технологии IntelliCache, которая оказывает существенное влияние на работу виртуальных ПК.
Напомним, что в первом Service Pack (а точнее Feature Pack 1) было множество интересных возможностей. Теперь же появились следующие нововведения:
IntelliCache. С помощью этой технологии можно снижать стоимость обслуживания инфраструктуры виртуальных ПК за счет использования комбинации общего и локального хранилища для виртуальных машин (см. описание ниже).
WorkLoad Balancing Installation Improvements. Появились улучшения в мастере установки этого компонента.
Local Storage Spans All Physical Volumnes. Когда используется локальное хранилище для виртуальных ПК, на хосте с несколькими физическими дисками в компоненте local Storage Repository (SR) все диски объединяются в единую группу LVM.
Reset-on-boot VM behaviour. Диски с опцией on-boot, установленной в значение reset, теперь доступны в качесве дисков для любого типа хранилища (ранее это было доступно только для дисков NFS и EXT SRs).
Block SCSI Generic Support. За счет поддержки BSG обеспечивается полная совместимость со средствами управления Emulex и QLogic.
Enhanced guest OS support. Поддержка гостевой ОС Red Hat Enterprise Linux (RHEL) 6.
Что такое IntelliCache в Citrix XenServer?
Идея такова: поскольку при использовании виртуальных ПК на базе одного базового образа генерируется большая нагрузка на общую систему хранения по вводу-выводу, нужно как-то разобраться с этой проблемой, тем более, что она приводит в том числе к VDI Boot Storm. Так вот предлагается поместить базовый образ виртуального ПК на недорогое NAS / NFS хранилище, а потом осуществлять кэширование этого образа на локальных дисках хоста XenServer для максимальной производительности связанных клонов виртуальных ПК, использующих этот образ. Кэш IntelliCache может располагаться как на локальном диске (рекомендуется SSD), так и в оперативной памяти на RAM-диске. Есть мнения, что 200-мегабайтного кэша хватает на устранения последствий VDI Boot Storm для инсталляций порядка 50 ВМ на хосте.
Скачать Citrix XenServer Service Pack 2 можно по этой ссылке.
Теперь у вас есть полностью бесплатный StarWind iSCSI Target, чтобы создавать хранилища для виртуальных машин на базе существующей Ethernet-инфраструктуры и без каких-либо вложений. Дальше уже можно задуматься о коммерческом издании StarWind CDP или средстве создания отказоустойчивых хранилищ StarWind Enterprise HA.
Новая бесплатная версия StarWind Free Edition позволит вам использовать многие серьезные возможности, которые есть только у коммерческих продуктов:
Любую современную хостовую операционную систему Windows Server для сервера хранилища. Можно использовать локальные диски серверов для создания томов VMFS с поддержкой VMware HA/DRS и других распределенных служб.
Можно создавать хранилища для виртуальных машин VMware vSphere, Microsoft Hyper-V, Citrix XenServer и других систем виртуализации.
Дедупликация данных (с различными размерами блоков). Это позволяет экономить дисковое пространство на системе хранения, убирая дублированные блоки.
Полностью разрешенное лицензией использование хранилищ в производственной среде.
Поддержка! Для бесплатной версии идет basic support plan, что подразумевает поддержку через форум на сайте. Далее можно покупать поддержку по инцидентам, а также переключиться на любое коммерческое издание без дополнительных доплат (в платите только разницу между изданиями).
Caching - в StarWind iSCSI есть хороший механизм кэширования (write-back и write-through), ускоряющий работу виртуальных машин с хранилищами.
Функции VTL (Virtual Tape Library) и репликация по сети WAN доступны как возможность платного обновления на коммерческую версию.
Поддержка возможностей Thin Provisioning в StarWind - ваше хранилище для виртуальных машин (образ виртуального диска) будет расти по мере наполнения его данными.
В самом конце прошлого года компания Citrix выпустила новое поколение продукта для виртуализации корпоративных ПК предприятия (VDI) Citrix XenDesktop 5. Совсем недавно вышло обновление Citrix XenDesktop 5 Service Pack 1, которое, помимо множественных исправлений ошибок, имеет несколько новых возможностей.
Новые возможности Citrix XenDesktop 5 Service Pack 1:
Поддержка серверной платформы виртуализации XenServer 5.6 Service Pack 2, включая поддержку технологии IntelliCache
Поддержка Microsoft SC VMM R2 Service Pack 1 и Windows Server 2008 R2 Service Pack 1, Hyper-V 2008 R2 Service Pack 1, а также Windows 7 Service Pack 1.
Поддержка VMware VSphere 4.1 Update 1 в качестве хост-платформы для виртуальных ПК.
Улучшения в механизме лицензирования (модель "пользователь или устройство") - более гибкое управление имеющимися лицензиями.
Новые утилиты для осуществления миграции с платформы XenDesktop 4
Новый мастер установки для служб Citrix Provisioning Services, который позволяет развертывать виртуальные ПК в инсталляции XenDesktop 5.
Управление питанием для блейд-серверов с поддержкой сторонних плагинов для управления питанием.
Напомним, что Citrix XenDesktop 5 поставляется в 4-х изданиях: Express (бесплатно для 10 пользователей), VDI (только для виртуальных ПК, без виртуализации приложений), Enterprise (с XenApp Enterprise) и Platinum (с XenApp Platinum, соответственно).
Кроме того, пользуясь случаем передаем ответ на самый популярный вопрос по Citrix XenDesktop.
Q: Если я купил XenDesktop в редакции Enterprise или Platinum, то виртуализованные приложения XenApp можно запускать только из виртуальных ПК XenDesktop?
A: В этом случае в состав XenDesktopвходит полноценный XenApp, приложения можно публиковать для любых пользователей, не только для виртуальных ПК. Разница только в системе лицензирования – в составе XenDesktopваш XenAppлицензируется по общему количеству пользователей или устройств, а если покупать его отдельно, то по количеству одновременных подключений.
Издания Citrix XenDesktop 5 SP1 отличаются следующими возможностями:
Licensing
Express
VDI
Enterprise
Platinum
Named User Licensing
10 users
Device based licensing
Concurrent User Licensing
Component
Controller
Limited 1
XenServer 2
XenServer 3
XenServer, Enterprise Edition 4
XenServer, Enterprise Edition 4
XenServer, Enterprise Edition 4
Receiver
Desktop Studio
Machine Creation Services
Desktop Director
Workflow Studio
Profile management
StorageLink
Access Gateway 5
Platform License
Platform License
Universal License
XenApp
Enterprise
Platinum
XenVault
Provisioning services for desktops6
Provisioning services for servers
XenClient and Synchronizer
EdgeSight for Virtual Desktops
Branch Repeater 7
Single Sign-on
Скачать Citrix XenDesktop 5 Service Pack 1 можно по этой ссылке.
О решении StarWind Enterprise iSCSI для создания отказоустойчивых хранилищ VMware vSphere и Microsoft Hyper-V мы уже писали немало (для этого есть специальный раздел на нашем сайте) и будем писать еще, пока все кому оно нужно его не купят. А нужно оно очень многим, так как позволяет создать отказоустойчивый кластер хранения на базе существующей инфраструктуры Ethernet при минимальных инвестициях (не надо покупать FC-хранилища, устройства коммутации SAN и прочее).
Сегодня мы поговорим о типе диска Snapshot and CDP Device в StarWind Enterprise iSCSI. Во-первых, вам нужно прочитать первую часть статьи, где описаны основные режимы работы дисков со снапшотами, которые поддерживает продукт.
Диски типа Snapshot and CDP Device можно создать, когда вы выбираете опцию создания виртуального образа Advanced Virtual, а затем Snapshot and CDP Device:
CDP - это Continuous Data Protection, т.е. непрерывная защита данных ваших виртуальных машин. В этом режиме поддерживаются мгновенные снимки хранилища (snapshots), которые защитят вас от утраты каких-либо важных данных по вине пользователя - вы всегда сможете откатиться к снимку, созданному в определенный момент времени.
Какие опции мы имеем (кстати, обратите внимание, что StarWind можно использовать и для Citrix XenServer, где он находится в официальном HCL):
Во-первых, у нас есть три режима работы диска Snapshot and CDP Device...(нажимаем читать дальше и комментировать)
Коллеги, продолжаем нашу с вами совместную дискуссию о решении StarWind Enterprise, которое позволяет создать недорогое отказоустойчивое iSCSI-хранилище для виртуальных машин на серверах виртуализации VMware ESX и Microsoft Hyper-V. Для тех, кто не знает что это такое - пройдемте сюда, сюда и сюда.
Поддержка нескольких маршрутов для канала синхронизации. Теперь не обязательно делать NIC Team между узлами - любой маршрут подходит для передачи данных при синхронизации между нодами. Это увеличивает производительность и надежность, позволяя вам выбрать из большего числа конфигураций сети при проектировании решения по хранению виртуальных машин.
Оптимизация производительности для сетей 10 GbE и 40 GbE (версии CDP и HA - сравнение изданий тут).
Управление полосой пропускания канала синхронизации (QoS) - теперь можно регулировать приоритезацию трафика при синхронизации HA-узлов, что позволяет не забивать весь доступный канал и не затормаживать доступ к общему хранилищу.
Дедупликация с размерами блока от 4кб до 256кб на выбор (вместо 512B сейчас), что позволит увеличить производительность процесса дедупликации до десяти раз, при этом качество ухудшится всего на 10-15% (при сравнении 512 байтовых с 4кб блоками). Кроме того, значительно понизится нагрузка на ЦПУ и 90% уменьшятся требования к объёму ОЗУ.
Что можно ожидать если не в следующих версиях чуть попозже:
Восстановление партнерского узла на другом сервере в случае если он выпал насовсем (сломался сервер) - без вывода хранилища в offline
Мониторинг активности узлов (read, write, total bandwidth). С каждом релизом (скорее всего) будут добавляться новые метрики
Компрессия и архивирование старых логов (5.7?). Комментарий разработчиков: с 5.6 мы выставляем сколько хранить логи, так что хз будет ли именно архивирование.
Снапшоты для HA-дисков (5.8)
Дисконнект инициатора без удаления таргета в интерфейсе
Превращение диска из обычного в HA target - без вывода хранилища в offline (далекие планы)
Расширение диска HA-устройства - без вывода хранилища в offline (далекие планы)
Изменение способов кэширования и объема RAM под это дело - без вывода хранилища в offline (далекие планы)
Стэк плагинов - возможность использовать таргетам использовать функционал других плагинов (то есть снепшоты для НА, физ. диски для НА и т.д.)
А что бы вы хотели увидеть нового в StarWind? Кидайте в каменты - разработчики здесь и слушают вас.
Сегодня мы поговорим о механизме дедупликации данных в StarWind Enterprise iSCSI. Эта функциональность появилась, начиная с версии 5.6. Она позволяет создавать образы виртуальных дисков для хранилищ iSCSI, которые будут содержать только уникальные данные записываемых на них файлов (vmdk, vhd и прочее). Дедупликация работает "на лету", поэтому на хранилище попадают только уникальные блоки:
Объем, занимаемого этим хранилищем, будет расти по мере заполнения его уникальными данными файлов на нем хранящихся. Это позволяет значительно экономить на необходимых дисковых емкостях и понижает совокупную стоимость решения по построению инфраструктуры хранения данных виртуальных машин (c iSCSI она и так весьма небольшая).
Для создания дедуплицированного хранилища нужно выбрать тип диска Advanced Virtual (см типы дисков StarWind) и выбрать его подтип - Deduplicated disk device:
Обратите внимание - сейчас эта возможность экспериментальная (версия StarWind Enterprise 5.6). В следующих релизах она уже будет полностью поддерживаться. Поэтому ее пока используйте только для тестовых или некритичных систем.
Далее создаем новое устройство для виртуального диска, которое определяет максимальный объем хранилища (в нашем случае 5 ГБ):
Далее видим настройки, которые пока нельзя менять. Они определяют размер кэша для записи на данное виртуальное устройство, размер файла метаданных для виртуального диска и объем памяти, требующийся для работы с устройством.
Но реально на хранилище он занимает пока только вот столько:
Добавляем хранилище в vSphere Client:
Видим емкость в 5 ГБ:
Теперь создаем виртуальную машину на этом хранилище с диском в 2 ГБ (этот vmdk-диск указываем как thick, а не thin - то есть он создается сразу файлом в 2 ГБ):
И видим, что общее пространство, занимаемое диском StarWind Enterprise изменилось незначительно (в данном случае я уже был в середине установки Windows 2003 Server в этой виртуальной машине):
То есть в данном случае не просто Thin Provisioning, а полноценная дедупликация данных на лету средствами StarWind Enterprise.
Скачать замечательный продукт StarWind Enterprise iSCSI можно по этой ссылке, а покупают его по этой ссылке.
Как обычно, Duncan Epping написал отличный пост об использовании памяти виртуальными машинами на хостах VMware ESX. Постараемся объяснить это на русском языке. Итак, если открыть вкладку Summary в vSphere Client для виртуальной машины, мы увидим вот такую картину:
Здесь есть 2 главных параметра:
Memory - это то количество оперативной памяти, которое вы выделили виртуальной машине при создании. За это количество гостевая ОС не выйдет при ее использовании. Это же количество памяти вы увидите в гостевой ОС.
Memory Overhead - это количество памяти, которое может потребоваться гипервизору на поддержание работы виртуальной машины сверх используемой памяти (т.е. расчетные накладные расходы на виртуализацию, но не текущие).
Далее мы видим панель Resources, здесь есть такие показатели:
Consumed Host Memory - это количество физической памяти хоста ESX, выделенной виртуальной машине. Обычно это значение не больше значения Memory на предыдущей картинке. Но может быть и больше, поскольку Consumed Host Memory включает в себя и Memory Overhead, но не с картинки выше, а реально используемый гипервизором Overhead (о котором будет идти речь ниже). И важный момент - счетчик Consumed для Memory на вкладке "Performance" не включает в себя Overhead.
Active Guest Memory - это количество памяти, которое по мнению гипервизора VMkernel активно используется гостевой операционной системой. Вычисляется этот параметр на базе статистических показателей. То есть, если ОС не очень активно использует память, то можно ей ее немного подрезать в условиях нехватки ресурсов.
Теперь идем на вкладку "Resource Allocation". Здесь все немного сложнее:
Появляются вот такие показатели:
Для Host Memory (видим, что это 2187 МБ = сконфигурированная память 2048 МБ + Overhead):
Consumed - это, опять-таки, объем потребляемой виртуальной машиной физической памяти хоста ESX (постоянно меняется). И он включает в себя накладные расходы гипервизора по памяти.
Overhead Consumption - это текущий объем затрат памяти на поддержание виртуальной машины (здесь 42 МБ в отличие от расчетного в 110 МБ)
А формула такова: Consumed = Private + Overhead Comsumption
Для Guest Memory (2048 МБ сконфигурировано в настройках):
Private - это объем памяти физически хранимый хостом для виртуальной машины (см. формулу выше).
Shared - это объем памяти, который отдается другим виртуальным машинам от разницы между сконфигурированным объемом (Configured Memory) и потребляемым (Consumed). Суть в том, что ОС Windows при загрузке очищает всю память виртуальной машины, но потом эти пустые страницы приложениями не используются. Поэтому гипервизор отдает их другим ВМ, пока ВМ, владеющая памятью не потребует их. Эти страницы и есть Shared. Как мы видим, Private + Shared = Guest Memory.
Swapped - это объем памяти, ушедший в файл подкачки vswp. То есть это не файл подкачки Windows, а файл подкачки в папке с виртуальной машиной. Само собой этот показатель должен быть нулевым или совсем небольшим, поскольку своппинг, который делает ESX (а точнее VMkernel) - это плохо, т.к. он не знает (в отличие от Windows), какие страницы нужно складывать в своп, поэтому кладет все подряд.
Compressed - это объем памяти, который получен после сжатия страниц с помощью механизма Memory Compression (то есть, хранимый в VM Compression Cache).
Ballooned - это объем памяти, который забрал balloon-драйвер (vmmemctl), чтобы отдать ее другим нуждающимся виртуальным машинам.
Unaccessed - это память, к которой гостевая ОС ни разу не обращалась (у Windows - это близко к нулю, так как она обнуляет память при загрузке, у Linux должно быть как-то иначе).
Active - опять-таки, активно используемая память на основе статистики гипервизора.
На хорошем и производительном хосте VMware ESX метрики Compressed, Ballooned, Unaccessed - должны быть около нуля, так как это означает что машины не борются за ресурсы (то есть не сжимают страницы и не перераспределяют память между собой). Ну и, конечно, если показатель Active маленький, стоит задуматься об урезании памяти (но сначала посмотрите в гостевую ОС, она лучше знает, чем гипервизор, все-таки).
Worst Case Allocation - это сколько будет выделено виртуальной машине при самом плохом раскладе (максимальное использование ресурсов), то есть вся память будет использоваться, да еще и накладные расходы будут (т.е., Configured + максимальный Overhead).
Overhead Reservation - это сколько зарезервировано памяти под Overhead гипервизором.
Мы уже много писали о продукте StarWind Enterprise HA, который позволяет создавать отказоустойчивые хранилища для серверов виртуализации VMware ESX на базе обычных Windows-серверов. Недавно вышла версия StarWind Enterprise HA 5.5, в которой реализован канал Heartbeat для еще большей надежности продукта. В данной статье рассматривается весь процесс создания отказоустойчивого кластера StarWind, который выдерживает отказ одного из узлов, отвечающего за работу с томами VMFS для серверов ESX / ESXi.
Таги: StarWind, Enterprise, HA, Storage, iSCSI, VMware, ESX, vSphere
Сегодня должен быть доступен релиз продукта StarWind Enterprise HA версии 5.5, который позволяет превратить любой Windows-сервер в отказоустойчивое хранилище данных для хост-серверов VMware ESX или Microsoft Hyper-V, работающее по протоколу iSCSI (а значит, не надо вкладывать деньги в дорогостоящие Fibre Channel хранилища). Подробнее о продукте можно прочитать тут, тут, тут, тут и тут (и, вообще, есть для этого специальный раздел на сайте).
Новые возможности StarWind Enterprise HA 5.5:
High Availability: Добавлена возможность устранения ситуации Split Brain (в случае обрыва канала синхронизации). Теперь в случае отсутствия связи между узлами по сети синхронизации StarWind обрабатывает эту ситуацию с помощью сигналов доступности (Heartbeat) по сети взаимодействия с хост-серверами.
Если в этой сети обнаруживается, что второй узел доступен, а недоступен только канал синхронизации, то первичный узел кластера StarWind продолжает запись данных виртуальных машин, а вторичный узел отключает всех своих клиентов. Таким образом сохраняется целостность кластера и отсутствует потери данных, а также простои виртуальных машин. Тем не менее, для канала синхронизации все равно лучше использовать несколько сетевых интерфейсов и NIC Teaming.
High Availability: множественные улучшения производительности работы кластера StarWind.
High Availability: поддержка собственной технологии Fast Sync для устройств работающих в режиме кэширования write-back (подробнее здесь). Эта технология позволяет в случае наступления события отказа одного из узлов кластера хранилищ StarWind, а затем его восстановлении (Failback) сделать быструю синхронизацию резервного узла с основным за счет передачи только изменений с момента последнего "живого" состояния основного узла. А вообще методов кэширования в StarWind iSCSI есть два (и они, в зависимости от нагрузки, увеличивают производительность до 30-50%):
High Availability: Если оба узла кластера хранилища StarWind iSCSI отказали или выпали из сети, и после этого начала работать полная синхронизация этих узлов, то устройства хранения будут доступны хост-серверам ESX или Hyper-V сразу же (до ее окончания). Данные будут записываться на узел, который выбран в качестве источника синхронизации (synchronization source).
High Availability: Добавлена полная поддержка аутентификации в iSCSI SAN по паролю (CHAP authentication).
CDP/Snapshots: Доработан механизм работы с дисками с GPT разделами.
Virtual Tape: Исправлена ошибка, связанная с изменением образа файла virtual tape. Параметры устройства теперь показывают корректное имя файла. Если в устройство не загружено ни одного файла-образа Virtual Tape, то в свойствах отображается "None - Virtual Tape device is not loaded" и нулевой размер файла.
GUI: Множество добавлений и исправлений в основное средство управления - Management Console.
Скачать пробную версию StarWind Enterprise HA 5.5 можно по этой ссылке. Ну а продается StarWind в компании VMC.
Таги: StarWind, Enterprise, Update, HA, iSCSI, Storage, ESX, Hyper-V, VMware, Microsoft
Как вы знаете, есть такой замечательный продукт StarWind Enterprise HA, который позволяет создать отказоустойчивое хранилище для серверов VMware vSphere или Microsoft Hyper-V с помощью технологии iSCSI на базе одного или двух обычных Windows-серверов (то есть не надо покупать дорогостоящие FC-хранилища и продукты для репликации данных). Мы уже писали о нем тут, здесь, там, в этой статье и много где еще. Сегодня мы посмотрим на то, в каких режимах могут работать хранилища StarWind Enterprise.
Итак, при добавлении iSCSI Target в StarWind Enterprise нам предлагают создать новый виртуальный диск. У нас есть три варианта создания диска:
Эти варианты работы iSCSI устройства StarWind отличаются следующим:
В режиме Physical - мы монтируем физический диск сервера для создания iSCSI Target (то есть, с какой-либо файловой системой или без нее). На этом диске хост-серверы виртуализации VMware ESX уже сами будут создавать файловую систему (VMFS).
В режиме Basic Virtual мы создаем виртуальный диск без функциональности снапшотов (то есть это просто файл на диске в операционной системе Windows Server с установленным StarWind Enterprise, в который будет происходить запись данных виртуальных машин, которые, в свою очередь, видят содержимое этого файла как хранилище iSCSI). Внутри этого файла уже самим сервером VMware ESX создается том VMFS. Данный диск может быть тонким (растущим по мере наполнения данными), но создать тонкий диск из GUI StarWind нельзя (будет в следующих версиях).
В режиме Advanced Virtual - мы создаем диск с поддержкой мгновенных снимков и кластеризации. Такой диск работает как предыдущий за исключением возможностей защиты данных. К ним относятся зеркалирование образов дисков, снапшоты (мгновенные снимки) и диск с поддержкой двухузловой конфигурации StarWind (High Availability). Этот тип поддерживает возможность создания тонких (растущих по мере наполнения данными) дисков.
Далее есть три типа виртуальных дисков Advanced Virtual:
Они представляют собой следующие подтипы:
Mirror (RAID-1) Device - это зеркалированный виртуальный диск, который может находиться на разных физических устройствах, подключенных к серверу хранения, что обеспечит защиту данных в случае отказа одного из этих устройств (например, разные диски или разделы разных массивов). Но узел StarWind, через который сервер VMware ESX будет получать доступ к хранилищу, будет один. Такой тип дисков подходит для защиты данных виртуальных машин от физических сбоев хранилищ, но не подходит для защиты данных от утери (например, удаление пользователем).
Snapshot and CDP Device - это возможность создать хранилище виртуальных машин, которое поддерживает функциональность мгновенных снимков (snapshots). Эти снимки могут создаваться автоматически или вручную, что обеспечит возможность отката к определенному состоянию хранилища. Данный тип дисков также может работать в нескольких режимах обеспечения защиты данных. Также эти диски могут быть тонкими (растущими по мере наполнения данными). Кроме того, такой тип дисков может пригодиться, когда часто требуется откатываться к исходному состоянию хранилища, например, при разработке и тестировании.
High Availability Device - данный диск совместим с двухузловой конфигурацией StarWind Enterprise HA, которая обеспечивает защиту данных виртуальных машин за счет резервирования и узлов, и их хранилищ. Эти узлы синхронизируют данные между собой и могут работать в Active-Active или Active-Passive конфигурации (подробнее здесь). Для такого диска указываются параметры сервера-партнера StarWind.
На этом пока все - в следующей заметке мы расскажем о типе дисков Snapshot and CDP Device - в каких режимах они могут работать, и как они могут применяться на практике.
Скачать пробную версию ПО StarWind Enteprise HA можно по этой ссылке. Купить StarWind можно в компании VMC.
Как вы знаете, есть замечательное ПО StarWind Enterprise HA, которое позволяет создать отказоустойчивое хранилище для виртуальных машин VMware vSphere или Microsoft Hyper-V, на базе технологии iSCSI. Мы уже писали о StarWind здесь, здесь, здесь и здесь, а сегодня мы расскажем о том, какие требования к узлам предъявляет ПО StarWind Enterprise.
CPU
Рекомендуется процессор Intel Xeon E5620 или выше либо эквивалентный ему AMD Opteron. Надо отметить, что рекомендуется использовать многоядерные CPU. При этом, если сравнивать CPU, у которого частота каждого из ядер меньше, с CPU с большей частотой ядер, но меньшим их количеством - то предпочтителен первый вариант. То есть, лучше иметь 6-ядерный Intel Xeon 5660 с частотой 2.8 ГГц на ядро, чем 4-ядерный Intel Xeon 5667 с частотой 3.02 ГГц на ядро.
RAM
Минимум нужно 4 ГБ (для самой Windows и движка StarWind). Если вы используете один из методов кэширования в StarWind - то потребуется дополнительная память на кэши, исходя из их размеров.
Network
Естественно нужно использовать как минимум гигабитную сеть хранения iSCSI (при этом помните, что каждый компонент сети должен поддерживать 1 Гбит). Лучше использовать NIC Teaming для расширения канала или сети 10G, а также большие кадры Jumbo Frames (9K). Помните, что канал синхронизации между узлами обязательно нуждается в дублировании.
HDD
Можно использовать устройства SATA, SAS или SSD. Естественно, используйте аппаратные RAID-массивы, а не программные в производственной среде. Узнавать о том, какой RAID лучше начните отсюда.
Операционная система
Рекомендованная - Windows Server 2008 R2. Можно использовать и Windows Server 2003 (все, что выше - поддерживается). Также можно использовать и издания Server Core и даже бесплатный Hyper-V Server, однако, по понятным причинам, GUI для StarWind нужно будет устанавливать на отдельный компьютер (этот компонент называется StarWind Management Console). При этом для управления можно использовать и рабочую станцию с ОС, начиная с Windows XP. Помните, что для управления надо открыть порт 3261 в сетевом экране.
Сам процесс установки и настройки ПО StarWind Enterprise на каждом из узлов занимает 10-30 минут, поэтому просто возьмите и попробуйте продукт бесплатно.
Уже многим из вас известен такой замечательный продукт для создания хранилищ под виртуализацию, как StarWind Enterprise HA. С помощью StarWind можно создать инфраструктуру хранения виртуальных машин VMware vSphere или Microsoft Hyper-V на базе технологии iSCSI без больших инвестиций. Сегодня я хочу вам рассказать о технологии использования кэширования в StarWind Enterprise, которая позволяет существенно увеличить производительность операций чтения и записи данных на тома VMFS в среде VMware vSphere. Таги: StarWind, Enterprise, Storage, iSCSI, VMFS, VMware, ESX, SAN, Microsoft, Hyper-V
На блоге сотрудника Citrix Daniel Feller появилась отличнейшая серия статей про то, какие типичные ошибки совершают организации при развертывании виртуальных ПК:
Ошибки при конфигурациях систем хранения - базовая ошибка архитекторов. Серверная виртуализация и VDI ведут себя по разному по отношению к нагрузке на системы хранения.
Управление пиковыми нагрузками - например, одновременный утренний логин пользователей , который может привести к критическим последствиям для производительности.
"Защита от антивирусов" - они дают значительную нагрузку на виртуальные ПК, поэтму и надо от них защищаться. Оптимально использовать технологии вроде VMware VMsafe. Кроме того, затрагиваются проблемы вредоносных активностей, связанных именно с моделью VDI (например, непостоянные десктопы).
Неправильное распределение ресурсов - классика VDI-решений. Рассматриваются конфигурации виртуальных ПК (CPU, Memory), дается обзор техник оптимизации вычислительных ресурсов с их разоблачением.
Отсутствие стратегии виртуализации приложений - лучший эффект VDI дает именно с использованием виртуальных приложений, однако очень мало компаний уделяют этому внимание. А надо бы.
Обзор сделан для продукта Citrix XenDesktop, но многие пользователи, думающие о внедрении VMware View также могут почерпнуть для себя много интересного.
Компания Microsoft выпустила пятую версию своего бесплатного продукта Assessment and Planning Toolkit (MAP), позволяющего произвести комплексное обследование своей гетерогенной ИТ-инфраструктуры (физические и виртуальные серверы) и получить на основе данных анализа отчет о готовности к виртуализации и рекомендации по консолидации серверов в виртуальных машинах Microsoft Hyper-V.
Компания VMware выпустила очень интересный и рекомендуемый к прочтению администраторами VMware vSphere документ "Understanding Memory Resource Management in VMware ESX 4.1". В данном документе описывается, как гипервизор ESX / ESXi обращается с оперативной памятью хост-сервера виртуализации при исполнении виртуальных машин.
Подобный документ существовал у VMware и ранее, но теперь в нем добавилось описание техники Memory Compression, которая позволяет существенно экономить физическую память хост-сервера за счет сжатия страниц, которые должны были попасть в своп.
Также в этом документе указано, как можно управлять кэшем (Compression Cache), где лежат эти сжатые страницы памяти для виртуальной машины: